Некомерційна компанія з розробки штучного інтелекту OpenAI злякалася власного творіння. Її програмісти створити чат-бота, який генерує настільки якісні тексти, що їх майже неможливо відрізнити від написаних людиною. Система вміло адаптується до стилю та контенту, і розробники вже бояться потенційних загроз, які може нести її оприлюднення.
Основу чат-бота OpenAI складає нова лінгвістична модель GPT-2. Її тренували передбачати слова у зразках запозичених в інтернеті текстів. Загальний обсяг тренувальної бази даних склав 40 гігабайтів тексту.
Отримана система дозволяє користувачам вибрати тему тексту та її стиль, і за мить в них буде досить великий текст високої якості.
Розробники побоюються, що створений ними чат-бот може стати руйнівним, якщо його опублікувати. Адже його можуть залучити до створення фейкових новин, генерації текстів у стилі якоїсь людини, автоматизувати агресивні та спам-коментарі в соцмережах. Наприклад, GPT-2 попрохали написати відповідь на твердження «переробка є гарною для довкілля». Система відповіла, що переробка є шкідливою для довкілля і аргументовано пояснила свою точку зору.
Побоюючись свого творіння, в OpenAI згодилися опублікувати лише невелику частину свого чат-бота. Хоча в компанії не впевнені, чи варто публікувати навіть її. В OpenAI також закликають владу систематично моніторити соціальний вплив від проникнення штучного інтелекту.